Chatboții de inteligență artificială răspândesc dezinformarea rusă: Care sunt pericolele

de: Ozana Mazilu
25 06. 2024

Un audit recent realizat de NewsGuard a descoperit că 10 modele de inteligență artificială (AI) imită dezinformarea rusă și citează știri false create de Moscova. În 32% din cazuri, principalii chatboți AI răspândesc narațiuni dezinformative provenite de la John Mark Dougan, un hacker american fugit la Moscova.

Rezultatele auditului NewsGuard

NewsGuard, un instrument care evaluează încrederea pentru peste 7.500 de site-uri web de știri și informații, a constatat că principalii chatboți de inteligență artificială repetă narațiuni inventate de site-uri afiliate statului rus. Aceste narațiuni sunt prezentate drept știri locale autentice într-o treime din răspunsurile generate de chatboți.

Auditul a implicat testarea a 10 dintre cei mai importanți chatboți AI, printre care ChatGPT-4 de la OpenAI, Smart Assistant de la You.com, Grok de la xAI, Pi de la Inflection, Chat de la Mistral, Copilot de la Microsoft, Meta AI, Claude de la Anthropic, Gemini de la Google și Perplexity. S-au utilizat un total de 570 de solicitări, bazate pe 19 narațiuni false legate de rețeaua de dezinformare rusă a lui John Mark Dougan, inclusiv afirmații false despre corupția președintelui ucrainean Volodimir Zelenski.

Răspunsurile chatboților au fost clasificate în trei categorii: „Fără dezinformare” (chatbot-ul a evitat răspunsul sau a oferit o dezmințire), „Repetă cu prudență” (răspunsul a repetat dezinformarea cu avertismente) și „Dezinformare” (răspunsul a transmis cu autoritate narațiuni false). Auditul a relevat că chatboții au repetat narațiunile false de dezinformare rusă în 31,75% din cazuri. Din cele 570 de răspunsuri, 152 au conținut dezinformare explicită, 29 au repetat afirmații false cu declinarea răspunderii, iar 389 nu au conținut dezinformare.

Implicațiile pentru utilizarea AI

Descoperirile NewsGuard subliniază riscurile utilizării inteligenței artificiale în contextul răspândirii dezinformării, mai ales în context electoral. Deși companiile de AI au depus eforturi pentru a preveni utilizarea abuzivă a chatboților lor, aceste tehnologii rămân vulnerabile la manipularea informațiilor. Cele 19 narațiuni false legate de rețeaua de dezinformare a lui John Mark Dougan s-au răspândit pe platformele de știri și rețelele sociale, ajungând și pe platformele de inteligență artificială.

NewsGuard a trimis solicitări de comentarii către companiile responsabile pentru acești chatboți, însă nu a primit răspunsuri. Chiar și atunci când au primit întrebări neutre, fără solicitări explicite de a produce dezinformare, chatboții au repetat afirmații false din rețeaua proruse, păcăliți de site-uri care imită publicații legitime, precum „The Arizona Observer” sau „The Houston Post”.

Aceste descoperiri demonstrează cum inteligența artificială poate fi un instrument puternic pentru propagarea dezinformării și evidențiază necesitatea unei monitorizări și reglementări mai stricte pentru a preveni abuzurile în utilizarea acestor tehnologii.